Highlights der interdisziplinären KI-Forschung
11.10.2023
An der LMU forschen Wissenschaftlerinnen und Wissenschaftler unterschiedlicher Disziplinen zu Herausforderungen und Chancen Künstlicher Intelligenz.
11.10.2023
An der LMU forschen Wissenschaftlerinnen und Wissenschaftler unterschiedlicher Disziplinen zu Herausforderungen und Chancen Künstlicher Intelligenz.
Ja oder Nein. In der Forschung von Christoph Kern geht es theoretisch auch um Entscheidungen, die Leben verändern können. Der Juniorprofessor für Social Data Science und Statistical Learning untersucht Prozesse automatisierter Entscheidungsfindung, bei denen Maschinelles Lernen eine Rolle spielt. Ihn interessiert, wie fair Ansätze automatischer Entscheidungsfindung sind und ob sie bestimmte Personengruppen benachteiligen. Beispiele aus anderen Ländern zeigen, wie problematisch solche Ansätze sein können, die in den USA sogar im Justizwesen eingesetzt wurden. ADM, die Abkürzung steht für Automated decision-making, wird mittlerweile aber auch in Europa zum Beispiel bei der Betreuung von Arbeitslosen verwendet.
In seiner Professur kombiniert Christoph Kern sozialwissenschaftliches mit technischem Know-how.
In Zukunftsszenarien navigieren KI-basierte Systeme autonome Fahrzeuge völlig selbständig durch den Verkehr. Experimentelle Ergebnisse haben gezeigt, dass solche futuristischen KI-Systeme von Probandinnen und Probanden als ebenso verantwortlich wie Menschen eingestuft werden, wenn sie eigenständig Verkehrsentscheidungen treffen. Von dieser Art von Autonomie sind derzeit gängige KI-Assistenten jedoch weit entfernt. Sie versorgen menschliche Nutzerinnen und Nutzer lediglich mit unterstützenden Informationen wie Navigations- und Fahrhilfen. Wer ist also in diesen alltäglichen Fällen verantwortlich, wenn etwas richtig oder falsch läuft? Der Mensch? Oder der KI-Assistent? Ein Team um Louis Longin vom Lehrstuhl für Philosophy of Mind hat nun eben diese Fragen untersucht.
Die Ergebnisse zeigen eine Ambivalenz auf: Einerseits wurden die intelligenten Assistenten nur als Hilfsmittel betrachtet, andererseits wurde ihnen aber auch Mitverantwortung für den Erfolg oder Misserfolg der menschlichen Fahrer zugeschrieben. Bei der nicht von einer KI gesteuerten Navigationshilfe dagegen gab es keine derartige Aufteilung bei der Zuschreibung von Verantwortung.
Die neue Konrad Zuse School of Excellence in Reliable AI (relAI) wird mit Masterstudierenden und Promovierenden sowohl zum technische Know-how als auch zur gesellschaftlichen Bedeutung zuverlässiger KI arbeiten.
Aspekte wie Sicherheit und Wahrung der Privatsphäre sind wesentliche Voraussetzungen für den Einsatz von KI. Denn mangelnde Zuverlässigkeit führt regelmäßig dazu, dass KI-Technologien auf fehlende Akzeptanz in Gesellschaft und Industrie stoßen.
Diese Perspektive soll durch die gestern von Wissenschaftsminister Markus Blume eröffnete Zuse School relAI stärker in den Fokus rücken. Hier werden künftig KI-Expert:innen ausgebildet, die nicht nur technisches Know-how, sondern auch ein Bewusstsein für die gesellschaftliche Bedeutung der Zuverlässigkeit von KI entwickeln.
Im Dickicht der Algorithmen:
Künstliche Intelligenz verändert Lehre und Lernen
Neues Nebenfach Künstliche Intelligenz
Als „Human Augmentation Technologies“ werden Technologien bezeichnet, die menschliche Fähigkeiten verbessern. Dazu zählen zum Beispiel Exoskelette, aber auch Augmented-Reality-Brillen. Eine Studie am Lehrstuhl für Human-Centered Ubiquitous Media der LMU zeigt nun, dass Nutzerinnen und Nutzer hohe Erwartungen an den Effekt dieser Technologien haben. Sobald sie der Ansicht sind, eine KI würde ihre kognitiven Fähigkeiten verbessern, erhöht sich ihre Risikobereitschaft. Und das unabhängig davon, ob die KI sie tatsächlich unterstützt.
Die Studie bestätigt damit einen möglichen Placebo-Effekt bei technologischen Anwendungen in ähnlicher Form, wie dieser bei Medikamenten nachweisbar ist. „Wenn Menschen zunehmend mit intelligenten Systemen zusammenarbeiten, ist es wichtig, einen möglichen Placebo-Effekt zu verstehen, um wirklich Systeme bauen zu können, die eine echte Unterstützung bieten“, sagt Albrecht Schmidt, Informatikprofessor an der LMU.
Professorin Barbara Plank forscht im Bereich Natural Language Processing (NLP) an der LMU. Sie arbeitet an Sprachtechnologien und Künstlicher Intelligenz, die stets den Menschen im Blick haben.
Die Informatikerin ist im vergangenen Jahr von der IT-Universität Kopenhagen an die LMU gewechselt und forscht am Centrum für Informations- und Sprachverarbeitung. So arbeitet sie etwa daran, Algorithmen für die Textsuche in Jobannoncen zu verbessern, robuster zu machen, um in Stellenanzeigen ganz bestimmte Kriterien oder Anforderungen für Jobs noch präziser und schneller darzustellen und passgenaue Jobofferten für die Arbeitsuchenden zu ermöglichen. Daten hierfür hat sie unter anderem von der dänischen Arbeitsagentur erhalten.
Barbara Plank betont: „NLP hat ungeheuer viele Anwendungsmöglichkeiten.“ Vor allem auch in kulturellen oder sozialen Kontexten.
Video mit Barbara Plank zu KI-Sprachmodellen: Wer hat's geschrieben?
Wie Künstliche Intelligenz die Vielfalt der Sprachen kennenlernt: Hinrich Schütze arbeitet an der Schnittstelle von Sprachwissenschaft und Informatik. Der Computerlinguist forscht am Center for Information and Language Processing der LMU an Software, die auch mit kleinen Sprachen umgehen kann.
"Ich erlebe gerade die interessanteste Zeit in meinem Fach. Plötzlich haben sich Intelligenzen entwickelt, die niemand richtig erklären kann", sagt der KI-Forscher.
Die AML – eine von mehreren Formen der Leukämie („Blutkrebs“) – ist eine tückische Erkrankung. Fünf Jahre nach der Erstdiagnose lebt nur noch ein Drittel der Erkrankten. Bis zu 85 Prozent der Patientinnen und Patienten erscheinen nach einer intensiven Chemotherapie zwar wie geheilt. Allerdings kehrt bei mehr als der Hälfte von ihnen binnen ein bis zwei Jahren die Krankheit zurück, weil die Chemotherapie nicht alle Leukämie-Zellen zerstört hat.
Bei einem Rückfall ist eine Stammzelltransplantation die letzte Chance für die Kranken. Aber selbst dann liegt die langfristige Überlebenswahrscheinlichkeit bei unter 20 Prozent. Innovative Behandlungsmöglichkeiten sind mithin dringend nötig.
Anders als andere Formen von Blutkrebs ist die akute myeloische Leukämie (AML) derzeit nicht mit der innovativen sogenannten CAR-T-Zell-Immuntherapie behandelbar. Der Grund: Es fehlen die spezifischen molekularen Ansatzpunkte, mit denen bestimmte Immunzellen gezielt AML-Zellen angreifen könnten – damit das Immunsystem den Krebs auch wirklich attackiert. Genau solche Ansatzpunkte haben die beiden Forscherteams von Professor Sebastian Kobold mit Dr. Adrian Gottschlich von der Abteilung für Klinische Pharmakologie des LMU Klinikums und Dr. Carsten Marr mit Moritz Thomas aus dem Institute of AI for Health von Helmholtz Munich entdeckt. Die Ergebnisse wurden nun in der Fachzeitschrift Nature Biotechnology veröffentlicht.
Physik wird von vielen Schülerinnen und Schülern und Studierenden als trocken und für den Alltag wenig relevant wahrgenommen. Um das zu ändern, erforschen Jochen Kuhn, Inhaber des Lehrstuhls für Didaktik der Physik, und sein Team – unter anderem bestehend aus zwei Nachwuchsgruppen – neue Ansätze, um diese Spannungen mit dem Einsatz von multimedialen Lernumgebungen zu überbrücken. „Man braucht Physik nicht nur mit Formeln verstehen. Physik ist häufig sehr abstrakt, darum versuchen wir, den Lernenden Physik auch durch verschiedene Arten von Visualisierungen besser zugänglich zu machen.“
Ein Ziel der Forschung Jochen Kuhns ist es herauszufinden, wie und mit welchen Darstellungen Lernende erfolgreich Physik lernen, Experimente planen oder physikalische Probleme lösen. Dabei ist nicht nur das Ergebnis des Lernens oder Problemlösens relevant, sondern auch der Prozess dahinter. So kann zum Beispiel mit Eyetracking-Verfahren verstanden werden, wie man Schülerinnen und Schüler und Studierende beim erfolgreichen Lernen bestmöglich unterstützen, fördern oder herausfordern kann.
Jochen Kuhn forscht bereits heute zu digitalen Medien, die in Zukunft relevant sein werden – im Alltag sowie in der Bildung. „Nicht erst seit ChatGPT läuft Bildung Gefahr, aufgrund der hohen Dynamik der Digitalisierung in einigen Bereichen hinter den gesellschaftlichen Bedürfnissen und Anforderungen zurückzubleiben. Das bedeutet, dass Bildung die Chance bekommen muss, mit den gesellschaftlichen Entwicklungen Schritt zu halten“, erklärt Jochen Kuhn.
Was kann das Modell ChatGPT und welche Herausforderungen wirft die Technologie auf? Antworten geben Wissenschaftlerinnen und Wissenschaftler aus verschiedenen Fachrichtungen:
Enrique Jiménez, Professor für altorientalische Literaturen an der LMU, setzt eine digitale Datenbank und Künstliche Intelligenz als Werkzeuge ein, um verloren gegangene Texte der antiken Weltliteratur wieder lesbar zu machen. Nun werden 300.000 Textzeilen sowie digitale Gesamtausgaben bedeutender Texte der Weltliteratur veröffentlicht. Es ist die bislang größte Textveröffentlichung in der Geschichte der Keilschriftstudien.
Im alten Mesopotamien wurde mit Keilschrift auf Tafeln aus Ton geschrieben, die heute nur noch in Form unzähliger Bruchstücke vorhanden sind. Enrique Jiménez arbeitet mit seinem Team im Projekt „Electronic Babylonian Literature“ daran, sämtliche überlieferte Keilschrifttafeln zu digitalisieren. Um die noch zusammenhanglosen einzelnen Bruchstücke miteinander zu verbinden, hat das Team einen Algorithmus entwickelt.
„Es ist ein Werkzeug, das zuvor nie existiert hat, eine riesige Datenbank von Fragmenten. Wir glauben, dass sie wesentlich für die Rekonstruktion der babylonischen Literatur ist, bei der wir nun viel schneller vorankommen können“, sagt Enrique Jiménez. Hunderte von Manuskripte und viele textliche Verbindungen hat der Algorithmus bereits neu identifiziert.
Maschinen das Sehen zu lehren – das ist eines der Ziele von Professor Björn Ommer. Dabei ist das Sehen nur eine Art Lernbeispiel für eine andere, größere Aufgabe: das selbstständige Verstehen. „Mich interessiert brennend“, so der Informatiker, „wie wir Menschen aus dem, was wir sehen, Sinn machen können.“ Und das soll auch die Maschine lernen.
Seit Herbst 2021 hat Ommer den neu eingerichteten Lehrstuhl für AI für Computer Vision und Digital Humanities / die Künste der LMU inne, der sowohl an der Fakultät für Geschichts- und Kunstwissenschaften als auch der Fakultät für Mathematik, Informatik und Statistik angesiedelt ist. Seine Arbeitsgruppe betreibt Grundlagenforschung im Bereich Computer Vision und Maschinelles Lernen – und untersucht ihre Anwendung insbesondere in den Digitalen Geisteswissenschaften.
„Der Bereich Deep Learning hat in den letzten Jahren einen Riesensatz gemacht“, erklärt Björn Ommer. „Auf einmal fahren Autos tatsächlich autonom herum, in der medizinischen Diagnostik hilft Künstliche Intelligenz (KI) … Vieles, an dem wir jahrelang geforscht haben, taucht jetzt als Prototyp auf und wird für die Öffentlichkeit erfahrbar.“
Zwischen Kunst und KI:
Björn Ommer forscht zu Deep Learning und Computer Vision
Kunst und Kreativität:
Im Nebel der Bilder
Interview:
Wir machen den Skalierungswettlauf mit unseren Algorithmen nicht mit
Algorithmen und „Big Data“ beeinflussen unsere moderne Kommunikation – und stellen auch die Kommunikationswissenschaft vor viele neue Fragen: Wie wirkt sich die ständige Smartphone-Nutzung auf das menschliche Wohlergehen aus? Welche Rolle spielen riesige Plattformen für unsere Nachrichtenwelt? Und was sind passende Methoden, um solche Fragen zu erforschen? Professor Mario Haim, neu an der LMU, befasst sich mit solchen Themen – und kombiniert dabei die klassische Kommunikationswissenschaft mit Methoden der Informatik.
Mario Haim hat die neu geschaffene Professur für Kommunikationswissenschaft mit Schwerpunkt Computational Communication Research an der LMU inne. Hier erforscht Haim zum einen, wie Algorithmen die öffentliche Kommunikation beeinflussen. In seinen jüngsten Veröffentlichungen beschäftigte Mario Haim sich mit der „Plattformisierung” der Nachrichten, der Vielfalt von Google-Treffern und etwa der Frage, wie Suchmaschinen zur Verhinderung von Suiziden beitragen können. Er publizierte Arbeiten über Stereotypen und Sexismus bei Nutzer-Kommentaren über Journalistinnen und Journalisten oder die Anfälligkeit für Fake News in sozialen Medien je nach politischer Orientierung.
Sein zweites großes Themengebiet ist die Methodenforschung. Wie die Sozialwissenschaften generell müsse sich auch die Kommunikationswissenschaft methodisch weiterentwickeln. „Wir brauchen ein Methodenrepertoire, mit dem sich diese neuen Aspekte unseres Faches überhaupt beforschen lassen.“
Tumore in der Nasenhöhle und der Nasennebenhöhle beschränken sich zwar auf einen kleinen Raum, umfassen aber ein sehr breites Spektrum mit vielen Tumorarten. Diese sind schwer zu diagnostizieren, da sie oft kein spezifisches Muster oder Erscheinungsbild aufweisen. Besonders gilt dies für die sogenannten sinonasalen undifferenzierten Karzinome oder kurz SNUCs.
Nun ist es einem Team um Dr. Philipp Jurmeister und Professor Frederick Klauschen vom Pathologischen Institut der LMU sowie Prof. David Capper von der Charité, zudem Wissenschaftler im Deutschen Konsortium für Translationale Krebsforschung (DKTK), Partnerstandorte München und Berlin, gelungen, die Diagnostik entscheidend zu verbessern: Sie entwickelten ein KI-Tool, das auf der Basis chemischer DNA-Modifikationen Tumore zuverlässig unterscheidet und die mit den bislang verfügbaren Methoden nicht unterscheidbaren SNUCs vier deutlich unterschiedlichen Gruppen zuordnet. Dies könnte auch neue Möglichkeiten für zielgerichtete Therapien eröffnen.
Welche Aufgaben werden künftig Algorithmen übernehmen? Wie wird sich das auf den Stellenmarkt auswirken? Und was bleibt dem Menschen dann noch zu tun? Mit Fragen wie diesen befasst sich die Ökonomin Ines Helm. „Die Umwälzung des Arbeitsmarkts durch Künstliche Intelligenz (KI) hat gerade erst begonnen, weshalb die arbeitsmarktökonomische Erforschung ihrer Effekte noch in den Kinderschuhen steckt.“ Helm ergründet unter anderem, welche Schlüsse sich aus früheren Umwälzungen durch technologischen Wandel, wie Automatisierung, Computerisierung und Robotisierung, auf den Wandel durch KI ziehen lassen.
Seit Oktober vergangenen Jahres hat die Expertin für Arbeitsmarktökonomik eine Professur für KI in der Volkswirtschaftslehre an der LMU inne. Neben Arbeitsmarktökonomie zählen auch die Regionalökonomie, Finanzwissenschaften sowie angewandte Methoden zu ihren Forschungsschwerpunkten.
Seit August 2021 leitet Professor Stefan Feuerriegel das neue Institute of Artificial Intelligence (AI) in Management an der LMU Munich School of Management. Durch eine Doppel-Affiliation auch mit der Fakultät für Mathematik, Informatik und Statistik verbunden, erforscht er den Einsatz von KI in Unternehmen, öffentlichen Organisationen und dem Gesundheitswesen.
„Viele Unternehmen hierzulande haben zwar schon Berührungspunkte mit KI und versuchen sich an ein oder zwei Projekten. Eine vollständige Implementierung aber fehlt meistens genauso wie ein übergreifendes ‚Mindset‘ der Belegschaft. Da hinken Unternehmen in Deutschland, und überhaupt Europa, jenen in den USA und Teilen Asiens hinterher", sagt Feuerriegel. „Das liegt auch daran, dass es kein fertiges ‚KI-Business-Produkt‘ gibt, überspitzt gesagt, das die Managerin oder der Manager wie Word oder Excel mit ein paar Klicks starten kann. KI-Anwendungen müssen erst maßgeschneidert für Unternehmen entwickelt werden, weshalb Absolventinnen und Absolventen mit KI-Know-how gerade händeringend gesucht werden."
Ein weiteres großes Hindernis sei, dass viele Prozesse in deutschen Unternehmen und Institutionen noch immer auf Papier ablaufen. Für den Einsatz von KI fehlen dann schlicht die digitalen Daten.
Studie:
KI ermöglicht, Entwicklungshilfe global besser zu steuern
Studie:
Negative Vokabeln sorgen für hohe Klickzahlen
Der Boom der Künstlichen Intelligenz scheint unaufhaltsam zu sein, allenfalls wird er derzeit durch einen Mangel an entsprechend hochkarätig ausgebildetem Nachwuchs gebremst. Hier setzt die neue „Konrad Zuse School of Excellence in Reliable AI (relAI)“ an, die die LMU und die Technische Universität München (TUM) nun mit gut 20 Partnern aus Forschung und Industrie aufbauen.
Die Konrad Zuse School soll ein Netzwerk aus Wissenschaft und Wirtschaft etablieren, um exzellenten KI-Nachwuchs aus der ganzen Welt zu gewinnen. Gefördert wird das Vorhaben vom Deutschen Akademischen Austauschdienst. Sprecher der School ist Stephan Günnemann, Professor für Data Analytics and Machine Learning an der TUM, Co-Sprecherin Gitta Kutyniok, Professorin für Mathematische Grundlagen der Künstlichen Intelligenz (Bavarian AI Chair) an der LMU.
Zunächst wurde es temporär als Projekt gefördert, nun hat sich das Munich Center for Machine Learning (MCML) erfolgreich etabliert und wird fortan dauerhaft von Bund und Freistaat gemeinsam finanziert. Damit gewinnt die hiesige Forschung zu Künstlicher Intelligenz (KI) und insbesondere Maschinellem Lernen weit über den Wissenschaftsstandort München hinaus deutlich an Strahlkraft.
Das MCML ist ein gemeinsames Zentrum von Ludwig-Maximilians-Universität München (LMU) und Technischer Universität München (TUM). Ziel des Zentrums ist es, die Grundlagenforschung im Bereich der Künstlichen Intelligenz (KI) mit einem starken Bezug zu praktischen Anwendungen voranzutreiben. Das MCML wurde 2018 als eines von bundesweit sechs KI-Kompetenzzentren gegründet und seitdem vom Bundesministerium für Bildung und Forschung (BMBF) gefördert.
Wie wir aus dem, was wir über uns wissen, mehr erfahren können: Frauke Kreuter ist Professorin für Statistik und Data Science. Sie will die Qualität von Big Data verbessern und nutzt dafür KI-Methoden.
Kreuter hat keinen Zweifel, dass sich die enormen Mengen an Daten, die schon seit vielen Jahren an verschiedenen Stellen gesammelt werden, einsetzen lassen, um das Leben der Menschen zu verbessern. Sie will dafür die neuesten Methoden der Künstlichen Intelligenz (KI) nutzen und die Algorithmen mit möglichst guten Daten trainieren. Sie ist sich gleichzeitig der Gefahren bewusst, die ihre Berufsgruppe der Data Scientists mit heraufbeschwört. Wenn sie über Smartphones redet, spricht sie vom „Beobachtungsgerät, das wir alle dauernd mit uns herumtragen“. Gerade am Umgang mit dem Smartphone lässt sich ihrer Ansicht nach gut zeigen, wo die großen Chancen der Data Science liegen. Und wo die Risiken.
Immer bessere Teleskope und Messtechnik in der Astronomie könnten Forschenden dabei helfen, die Geheimnisse des Universums zu entschlüsseln. Die riesigen Datenmengen bergen allerdings eigene Herausforderungen, wie Professor Daniel Grün erklärt.
Daniel Grün, Inhaber des Lehrstuhls für Astrophysik, Kosmologie und Künstliche Intelligenz an der Fakultät für Physik, greift zur Beobachtung des Himmels auf Daten vom Wendelstein zurück. Doch ein Observatorium reicht heute nicht mehr aus. Mittlerweile generieren riesige Teleskope auf der ganzen Welt Millionen über Millionen an Bildern, um die Geheimnisse des Universums zu entschlüsseln. Forscherinnen und Forscher drohen in der Datenflut zu ertrinken.
Ist KI die Lösung? Im Video spricht Daniel Grün über die Herausforderungen, Probleme und Lösungsmöglichkeiten in der modernen Astronomie.
Daniel Grün:
Mit Algorithmen durch das All
Daniel Grün:
Vom Pixel zum Universum und zurück
Gitta Kutyniok ist Inhaberin des Lehrstuhls für Mathematische Grundlagen der Künstlichen Intelligenz an der LMU, der zu den aus der Hightech Agenda des Freistaats finanzierten KI-Professuren gehört.
Wenn Systeme aus vielen Trainingsbeispielen selbsttätig lernen, Entscheidungen zu treffen, wenn sie Erfahrungen machen, systematisieren und daraus Regeln ableiten, will man wissen, wie sie zu diesen Entscheidungen kommen. Gitta Kutyniok will herausfinden, welches die Hauptkriterien dafür sind. Und umgekehrt: Welche sind die wichtigsten Komponenten dafür, dass die künstlichen neuronalen Netze und die daraus abgeleiteten Algorithmen zu den „richtigen“ Entscheidungen kommen, und wie muss das Lernfutter für die Maschinen aussehen?
Die Mathematikerin untersucht auch, welche Leitlinien man einziehen muss und wie „das optimale Setup“ für ein neuronales Netz aussieht. Und wie – Stichwort Explainable AI – letztlich in der Praxis nachvollziehbar bleiben kann, was selbstlernende Maschinen machen.
Forschung zur Künstlichen Intelligenz: An der Grenze des Wissens
Neues Projekt:
KI für die Kunstgeschichte
Interview:
Die Flut gefälschter Fakten